|
A Comparison Particle Filter for Searching a Radiation Source in Real and Simulated World
Cihlar, Milos ; Lazna, Tomas ; Zalud, Ludek
In this paper, we are focusing on comparing solutionsfor localizing an unknown radiation source in both aGazebo simulator and the real world. A proper simulation ofthe environment, sensors, and radiation source can significantlyreduce the development time of robotic algorithms. We proposeda simple sampling importance resampling (SIR) particle filter.To verify its effectiveness and similarities, we first tested thealgorithm’s performance in the real world and then in the Gazebosimulator. In experiment, we used a 2-inch NaI(Tl) radiationdetector and radiation source Cesium 137 with an activity of 330Mbq. We compared the algorithm process using the evolution ofinformation entropy, variance, and Kullback-Leibler divergence.The proposed metrics demonstrated the similarity between thesimulator and the real world, providing valuable insights toimprove and facilitate further development of radiation searchand mapping algorithms.
|
|
Cross-entropy based combination of discrete probability distributions for distributed decision making
Sečkárová, Vladimíra ; Kárný, Miroslav (vedoucí práce)
dizertační práce Název práce: Kombinování diskrétních pravděpodobnostních rozdělení pomocí křížové entropie pro distribuované rozhodování Autor: Vladimíra Sečkárová Email autora: seckarov@karlin.mff.cuni.cz Katedra: Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta, Univerzita Karlova v Praze Vedoucí disertační práce: Ing. Miroslav Kárný, DrSc., Ústav teorie informace a automatizace AV ČR, v.v.i. Email vedoucího: school@utia.cas.cz Abstrakt: Tato práce se zabývá návrhem systematického kombinování diskrétních pravděpo- dobnostních distribucí založeném na teorii rozhodování a teorii informace, konkrét- ně na křížové entropii (známé také jako Kullbackova-Leiblerova (KL) divergence). Optimální kombinací je pravděpodobnostní funkce minimimalizující podmíněnou střední hodnotu KL-divergence. Hustota pravděpodobnosti, která se váže k této střední hodnotě, rovněž minimalizuje KL-divergenci za podmínek vztažených k řešenému problému. Ačkoliv je kombinace odvozena pro pravděpodobnostní typ informace na společném nosiči, můžeme ji po transformaci a/anebo rozšíření použít i pro míchání jiných typů informace. Práce také zahrnuje diskuzi o navrho- vaném kombinování a...
|
| |
|
Cross-entropy based combination of discrete probability distributions for distributed decision making
Sečkárová, Vladimíra ; Kárný, Miroslav (vedoucí práce) ; Jurečková, Jana (oponent) ; Janžura, Martin (oponent)
dizertační práce Název práce: Kombinování diskrétních pravděpodobnostních rozdělení pomocí křížové entropie pro distribuované rozhodování Autor: Vladimíra Sečkárová Email autora: seckarov@karlin.mff.cuni.cz Katedra: Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta, Univerzita Karlova v Praze Vedoucí disertační práce: Ing. Miroslav Kárný, DrSc., Ústav teorie informace a automatizace AV ČR, v.v.i. Email vedoucího: school@utia.cas.cz Abstrakt: Tato práce se zabývá návrhem systematického kombinování diskrétních pravděpo- dobnostních distribucí založeném na teorii rozhodování a teorii informace, konkrét- ně na křížové entropii (známé také jako Kullbackova-Leiblerova (KL) divergence). Optimální kombinací je pravděpodobnostní funkce minimimalizující podmíněnou střední hodnotu KL-divergence. Hustota pravděpodobnosti, která se váže k této střední hodnotě, rovněž minimalizuje KL-divergenci za podmínek vztažených k řešenému problému. Ačkoliv je kombinace odvozena pro pravděpodobnostní typ informace na společném nosiči, můžeme ji po transformaci a/anebo rozšíření použít i pro míchání jiných typů informace. Práce také zahrnuje diskuzi o navrho- vaném kombinování a...
|
|
Cross-entropy based combination of discrete probability distributions for distributed decision making
Sečkárová, Vladimíra ; Kárný, Miroslav (vedoucí práce)
dizertační práce Název práce: Kombinování diskrétních pravděpodobnostních rozdělení pomocí křížové entropie pro distribuované rozhodování Autor: Vladimíra Sečkárová Email autora: seckarov@karlin.mff.cuni.cz Katedra: Katedra pravděpodobnosti a matematické statistiky Matematicko-fyzikální fakulta, Univerzita Karlova v Praze Vedoucí disertační práce: Ing. Miroslav Kárný, DrSc., Ústav teorie informace a automatizace AV ČR, v.v.i. Email vedoucího: school@utia.cas.cz Abstrakt: Tato práce se zabývá návrhem systematického kombinování diskrétních pravděpo- dobnostních distribucí založeném na teorii rozhodování a teorii informace, konkrét- ně na křížové entropii (známé také jako Kullbackova-Leiblerova (KL) divergence). Optimální kombinací je pravděpodobnostní funkce minimimalizující podmíněnou střední hodnotu KL-divergence. Hustota pravděpodobnosti, která se váže k této střední hodnotě, rovněž minimalizuje KL-divergenci za podmínek vztažených k řešenému problému. Ačkoliv je kombinace odvozena pro pravděpodobnostní typ informace na společném nosiči, můžeme ji po transformaci a/anebo rozšíření použít i pro míchání jiných typů informace. Práce také zahrnuje diskuzi o navrho- vaném kombinování a...
|
| |
|
Recursive Estimation of High-Order Markov Chains: Approximation by Finite Mixtures
Kárný, Miroslav
A high-order Markov chain is a universal model of stochastic relations between discrete-valued variables. The exact estimation of its transition probabilities suers from the curse of dimensionality. It requires an excessive amount of informative observations as well as an extreme memory for storing the corresponding su cient statistic. The paper bypasses this problem by considering a rich subset of Markov-chain models, namely, mixtures of low dimensional Markov chains, possibly with external variables. It uses Bayesian approximate estimation suitable for a subsequent decision making under uncertainty. The proposed recursive (sequential, one-pass) estimator updates a product of Dirichlet probability densities (pds) used as an approximate posterior pd, projects the result back to this class of pds and applies an improved data-dependent stabilised forgetting, which counteracts the dangerous accumulation of approximation errors.
|
|
Approximate Bayesian Recursive Estimation: On Approximation Errors
Kárný, Miroslav ; Dedecius, Kamil
Adaptive systems rely on recursive estimation of a firmly bounded complex- ity. As a rule, they have to use an approximation of the posterior proba- bility density function (pdf), which comprises unreduced information about the estimated parameter. In recursive setting, the latest approximate pdf is updated using the learnt system model and the newest data and then ap- proximated. The fact that approximation errors may accumulate over time course is mostly neglected in the estimator design and, at most, checked ex post. The paper inspects this problem.
|
| |
|
On maximization of the information divergence from an exponential family
Matúš, František ; Ay, N.
The information divergence of a probability measure P from an exponential family E over a finite set is defined as infimum of the divergences of P from Q subject to Q in E. For convex exponential families the local maximizers of this function of P are found. General exponential family E of dimension d is enlarged to an exponential family E* of the dimension at most 3d+2 such that the local maximizers are of zero divergence from E*.
|